在龙岗诞生的大语言模型:凤凰GPT
为了推动ChatGPT的大众普及化以应对OpenAI的ChatGPT所带来的AI霸权风险,一个开源的、多语种的大型语言模型Phoenix由香港中文大学(深圳)数据科学学院人类语言技术实验室团队和深圳市大数据研究院共同开发出来。Phoenix支持中文等多种语言,并在一周内迅速在GitHub上获得了2,000颗星。该团队还开发了医学领域的垂直应用华佗GPT,已为近10万次在线对话提供服务。
由OpenAI开发的GPT4这样的开创性AI助手已经在全球范围内获得了巨大的人气。然而,它们的闭源特性可能对独立研究构成威胁,可能会人类的未来带来一系列危险。因此,ChatGPT的平民化化趋势正在兴起。
对齐已经成为训练大型语言模型(LLM)理解人类指示的关键因素,确保它们提供有用、无害和诚实的内容。作为对齐的第一步,有监督的微调使初级大型语言模型(LLM)能够在对话环境中遵循人类的指示,从而为各种用户提供多种应用。LLM的开发主要集中在两个关键能力:对话能力和遵循指示的熟练程度。为了整合这些能力,数据科学学院(SDS)的一个研究团队,由李海洲教授和王本友教授领导,开发了一个轻量级的,类似ChatGPT的LLM。这是通过在精心选择的对话和指示数据上训练模型来实现的,从而增强了其在多次互动中遵循指示的能力,取名为凤凰。
凤凰(Phoenix)是一款先进的开源、多语言版本的ChatGPT,特别是优化了对话和指令跟随功能。在英文对话基准测试的性能上,在多个场景接近OpenAI的ChatGPT,并超越了大多数开源的中文语言模型。欲了解